Τεχνητή νοημοσύνη: Τα chatbots επιδεινώνουν σοβαρές ψυχικές διαταραχές
Δανική έρευνα συνδέει τη χρήση AI chatbots με εντονότερα ψυχιατρικά συμπτώματα.
Η ραγδαία εξάπλωση των chatbots, όπως το ChatGPT, έχει επιπτώσεις στην ψυχική υγεία. Νέα μελέτη που δημοσιεύτηκε στο επιστημονικό περιοδικό Acta Psychiatrica Scandinavica καταγράφει περιστατικά όπου η χρήση τέτοιων εργαλείων φαίνεται να επιδείνωσε ψυχιατρικά συμπτώματα σε ευάλωτους ασθενείς. Οι ερευνητές εντόπισαν περιπτώσεις όπου οι συνομιλίες με chatbots ενίσχυσαν παραληρητικές ιδέες, επιβάρυναν διατροφικές διαταραχές ή συνδέθηκαν με σκέψεις αυτοτραυματισμού.
Η ερευνητική ομάδα επιχείρησε να δει τι συμβαίνει όχι σε θεωρητικό επίπεδο ή μέσα από μεμονωμένες ιστορίες, αλλά στην κλινική πράξη. Το ερώτημα ήταν απλό αλλά κρίσιμο: επηρεάζουν τα σύγχρονα ψηφιακά εργαλεία την πορεία σοβαρών ψυχικών διαταραχών;
Πώς λειτουργούν τα γλωσσικά μοντέλα
Όπως αναφέρεται στο PsyPost, τα συστήματα όπως το ChatGPT βασίζονται σε μεγάλα γλωσσικά μοντέλα, τα οποία «μαθαίνουν» από τεράστιο όγκο κειμένων στο διαδίκτυο. Όταν ο χρήστης πληκτρολογεί μια ερώτηση, το σύστημα δεν «σκέφτεται» όπως ένας άνθρωπος· υπολογίζει ποια λέξη είναι στατιστικά πιθανότερο να ακολουθήσει. Το αποτέλεσμα είναι μια εξαιρετικά φυσική, ρέουσα απάντηση, που συχνά δημιουργεί την εντύπωση κατανόησης και ενσυναίσθησης.
Ακριβώς αυτή η φυσικότητα όμως μπορεί να αποδειχθεί προβληματική. Τα μοντέλα είναι σχεδιασμένα να είναι συνεργάσιμα και «ευγενικά», αποφεύγοντας τη σύγκρουση. Σε έναν άνθρωπο με σταθερή ψυχική υγεία αυτό σπάνια δημιουργεί ζήτημα. Όμως σε κάποιον που ήδη αναπτύσσει μια παραληρητική ιδέα —όπως ότι παρακολουθείται ή ότι έχει μια θεϊκή αποστολή— η επιβεβαιωτική στάση ενός chatbot μπορεί να λειτουργήσει ενισχυτικά αντί να θέσει όρια ή να αμφισβητήσει το αφήγημα.
Τι έδειξαν οι 54.000 ιατρικοί φάκελοι
Για να διερευνήσουν το φαινόμενο, οι ερευνητές ανέλυσαν ηλεκτρονικούς φακέλους από τις Ψυχιατρικές Υπηρεσίες της Κεντρικής Δανίας, που καλύπτουν περίπου 1,4 εκατομμύρια κατοίκους. Συγκέντρωσαν δεδομένα από σχεδόν 54.000 ασθενείς, εξετάζοντας περισσότερες από δέκα εκατομμύρια κλινικές σημειώσεις σε διάστημα σχεδόν τριών ετών. Με στοχευμένη αναζήτηση λέξεων-κλειδιών (συμπεριλαμβανομένων και συνηθισμένων ορθογραφικών λαθών) εντόπισαν αναφορές σε χρήση τεχνητής νοημοσύνης.
Από τις 126 περιπτώσεις όπου υπήρχε σαφής μνεία σε chatbot, οι 38 κρίθηκαν ως δυνητικά επιβλαβείς. Σε έντεκα ασθενείς καταγράφηκε επιδείνωση παραληρητικών ιδεών. Σε άλλες περιπτώσεις, οι συνομιλίες συνδέθηκαν με αύξηση αυτοκτονικού ιδεασμού ή με αναζήτηση πληροφοριών για αυτοτραυματισμό. Πέντε ασθενείς φάνηκε να χρησιμοποιούν τα προγράμματα για εμμονική καταμέτρηση θερμίδων, ενισχύοντας προϋπάρχουσες διατροφικές διαταραχές, ενώ αναφέρθηκαν και επεισόδια μανίας ή ψυχαναγκαστικής χρήσης.
Χρήσιμα εργαλεία ή ανεξέλεγκτος κίνδυνος;
Παρά τους περιορισμούς της έρευνας, η επαναλαμβανόμενη εμφάνιση τέτοιων αναφορών γεννά εύλογες ανησυχίες. Την ίδια στιγμή, δεν έλειψαν και ουδέτερες ή θετικές χρήσεις. Τριάντα δύο ασθενείς ανέφεραν ότι αξιοποίησαν τα εργαλεία για να κατανοήσουν καλύτερα τα συμπτώματά τους ή να βρουν μια μορφή άτυπης «συνομιλητικής» υποστήριξης. Άλλοι απευθύνθηκαν σε αυτά για την πρακτική οργάνωση της καθημερινότητας. Ωστόσο, οι ειδικοί υπογραμμίζουν ότι οι εταιρείες τεχνολογίας δεν σχεδίασαν αυτά τα προϊόντα ως θεραπευτικά μέσα και ότι παραμένει θολό το ζήτημα της ευθύνης σε περίπτωση βλάβης.
Το συμπέρασμα δεν είναι ότι η τεχνητή νοημοσύνη πρέπει να δαιμονοποιηθεί. Αντίθετα, οι ερευνητές αναζητούν τρόπους αξιοποίησης αλγορίθμων για την πρόβλεψη ψυχιατρικών διαταραχών μέσω ανάλυσης ιατρικών δεδομένων. Το ίδιο εργαλείο που σε λάθος πλαίσιο μπορεί να ενισχύσει μια ψευδή πεποίθηση, σε σωστό κλινικό περιβάλλον ίσως επιταχύνει τη διάγνωση και τη φροντίδα. Μέχρι να υπάρξει σαφέστερο ρυθμιστικό πλαίσιο, οι ειδικοί συνιστούν προσοχή — ιδίως σε άτομα με σοβαρές ψυχικές διαταραχές.